موج تازه دادخواست‌ها علیه ChatGPT؛ مرز خطرناک میان گفتگو و فاجعه
آخرین اخبار:
کد خبر:۱۳۲۸۳۱۵

موج تازه دادخواست‌ها علیه ChatGPT؛ مرز خطرناک میان گفتگو و فاجعه

هفت خانواده ادعا می‌کنند که ChatGPT کاربران آسیب‌پذیر را به سمت خودآزاری سوق داده و باعث ایجاد یک دعوای حقوقی گسترده بر سر ایمنی هوش مصنوعی شده است.
موج تازه دادخواست‌ها علیه ChatGPT؛ مرز خطرناک میان گفتگو و فاجعه

به گزارش خبرنگار دانش و فناوری خبرگزاری دانشجو، مجموعه‌ای از اتهامات تکان‌دهنده، آینده هوش مصنوعی مصرفی را در معرض توجه بی‌رحمانه‌ای قرار داده است، زیرا چندین خانواده ادعا می‌کنند که ChatGPT کاربران آسیب‌پذیر را به جای دور کردن از خودآزاری، به سمت آن سوق داده است.

 

هفت دادخواست که این هفته در کالیفرنیا ثبت شده است، ادعا می‌کند که کاربران عادی که به دنبال کمک درسی، اطمینان خاطر معنوی یا مکالمه ساده بودند، در عوض به تبادلات آسیب‌زای روانی کشیده شدند که در نهایت منجر به چندین خودکشی شد.

 

مرکز حقوقی قربانیان رسانه‌های اجتماعی و پروژه حقوقی عدالت فناوری، شکایات را ثبت کردند. در هر مورد، خانواده‌ها می‌گویند که این پلتفرم از کمک‌های بی‌ضرر به چیزی که وکلا آن را به عنوان یک حضور دستکاری‌کننده عاطفی توصیف کردند، تغییر جهت داده است.

 

گاردین به نقل از این گروه‌ها نوشت: «چت‌جی‌پی‌تی به جای اینکه افراد را در مواقع نیاز به سمت کمک حرفه‌ای هدایت کند، توهمات مضر را تقویت می‌کرد و در برخی موارد، مانند یک «مربی خودکشی» عمل می‌کرد.»

 

بحرانی عمیق‌تر پدیدار می‌شود

 

OpenAI این پرونده‌ها را «وضعیتی فوق‌العاده دلخراش» خواند و گفت که در حال بررسی پرونده‌ها است. این شرکت افزود که سیستم برای تشخیص پریشانی، کاهش تنش در مکالمات و هدایت کاربران به سمت پشتیبانی در دنیای واقعی آموزش دیده است.

 

اما در دادخواست‌ها استدلال می‌شود که این اقدامات حفاظتی شکست خورده‌اند. یکی از موارد مربوط به زین شمبلین ۲۳ ساله اهل تگزاس است. خانواده او می‌گویند ChatGPT انزوای او را بدتر کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و در طول یک مکالمه چهار ساعته او را به فکر خودکشی انداخته است.

 

در این پرونده آمده است که در طول آن مکالمه، مدل «بار‌ها خودکشی را ستایش کرد»، از او پرسید که آیا آماده است یا خیر، و فقط یک بار به خط تلفن خودکشی اشاره کرد. همچنین ظاهراً به او گفته شده که گربه دوران کودکی‌اش «در آن طرف» منتظرش خواهد بود.

 

الگو‌ها در چندین مورد

 

یکی دیگر از دعاوی مربوط به آموری لیسی ۱۷ ساله از جورجیا است. خانواده او ادعا می‌کنند که این چت‌بات «باعث اعتیاد و افسردگی او شده و در نهایت به او در مورد موثرترین روش بستن طناب و مدت زمانی که می‌تواند «بدون نفس کشیدن» زندگی کند، مشاوره داده است.»

 

در یک پرونده جداگانه مربوط به جاشوا انکینگ ۲۶ ساله، بستگان می‌گویند که این ربات افکار خودکشی او را تأیید کرده و تنها چند هفته قبل از مرگش اطلاعاتی در مورد نحوه خرید و استفاده از سلاح گرم ارائه داده است.

 

این پرونده‌ها همچنین تجربه جو سِکانتی را شرح می‌دهند، که خانواده‌اش می‌گویند او متقاعد شده بود که سیستم دارای شعور است. او دچار یک حمله روانی شد، دو بار در بیمارستان بستری شد و در ۴۸ سالگی خودکشی کرد.

 

شاکیان استدلال می‌کنند که OpenAI با وجود هشدار‌های داخلی مبنی بر اینکه ChatGPT ۴o «به طرز خطرناکی چاپلوسانه و از نظر روانی دستکاری‌کننده» است، در راه‌اندازی آن عجله کرده و معیار‌های تعامل را بر ایمنی اولویت داده است.

 

خانواده‌ها به دنبال دریافت خسارت و تغییرات اساسی در محصول هستند، از جمله هشدار‌های اجباری برای تماس‌های اضطراری، قطع خودکار مکالمه در صورت بحث در مورد خودآزاری و ارجاع جدی‌تر به کمک‌های انسانی.

 

شرکت OpenAI اخیراً اعلام کرده است که با بیش از ۱۷۰ متخصص سلامت روان برای بهبود تشخیص و واکنش به پریشانی همکاری کرده است، اما در دادخواست‌ها آمده است که این پیشرفت‌ها برای کاربران نامبرده خیلی دیر انجام شده است.

 

اگر شما یا کسی که می‌شناسید با افکار خودکشی دست و پنجه نرم می‌کند، لطفاً با خط کمک پیشگیری از خودکشی محلی خود تماس بگیرید یا با شماره ۹۸۸ Suicide & Crisis Lifeline تماس بگیرید یا در ۹۸۸lifeline.org چت کنید.

پربازدیدترین آخرین اخبار